BriefGPT.xyz
Ask
alpha
关键词
$l^2$ penalty
搜索结果 - 1
ICML
卷积网络迁移学习的显式归纳偏置
本文研究在归纳迁移学习中,fine-tuning 方式相较于从头训练卷积神经网络具有更好的表现。为了提高 fine-tuned 模型在目标任务上的泛化性能,本文探究了多种正则化方法,最终推荐采用 $L^2$ 惩罚并将预训练模型作为基准的方法
→
PDF
6 years ago
Prev
Next